#AI 視訊
Sora 死了,享年 6個月
曾經封神的 AI 視訊模型 Sora 就這麼沒了。前幾天,OpenAI 官方親自發文告別 Sora:應用關停、API 關停、視訊功能不再接入 ChatGPT。聽聞這一消息,有網友直接把 Elon Musk “墓碑梗圖”搬出來祭奠。評論區更是“人類迷惑行為大賞”:有人艾特創始人 Sam Altman 問“到底在幹嘛”。有人直接開噴“那我們憑什麼信你下一個產品”,還有人直接吐槽“死之前也不開源一下。”還有人很淡定:“沒事,還有別家能用。”老狐還記得,2024 年初 Sora 剛出來的時候,幾乎是“核爆級出圈”,堪稱“工業革命”。那會兒大家還在卷文生圖,它直接把“電影級視訊生成”甩到你臉上。雨水打在玻璃上的折射、人物走路的慣性、鏡頭推進的節奏,那種感覺不是“ AI 在畫圖”,是“ AI 在拍電影”。Sam Altman 一邊發 demo,一邊持續加碼預期。全網一度覺得這玩意兒,遲早要幹掉影視工業一部分。再後來,產品上線,會員專屬,邀請碼炒到飛起。再再後來,Sora 2 發佈,補齊音畫同步、角色對話、分鏡控制,甚至去年 9 月做了獨立 App。到這一步,其實路徑已經很明顯了,它不止想做工具,它是想做“ AI 時代的內容平台”。換句話說,它想成為 AI 版抖音。但問題也恰恰出在這。一開始大家玩得很開心,“把自己丟進電影裡”確實很爽。第一次:臥槽好牛;第二次:再試一個;第三次:……好像也就這樣。然後就沒有然後了。這不是技術問題,是典型的“ demo 型產品”困境,它證明了“能做”,但沒有建立“要一直用”的理由。新鮮感一過,使用者就散,留不住,也養不出習慣。相關資料顯示,Sora APP 的 30 天使用者留存率僅為 1%,60 天留存率直接歸零。與此同時,版權開始紛紛找上門。日本內容機構發函,好萊塢開始緊張。那怕後來 OpenAI 拉來了 迪士尼,給了 IP 授權,開放漫威、皮克斯、星戰這些大殺器,看起來像是“終於要商業化了”。但是劇情出現反轉,到今年 1 月份,Sora 的下載量已暴跌 45%。再往後就更乾脆了:Sora 一關,迪士尼同步撤退,合作終止、投資取消,一起按下暫停鍵。你說這是產品問題嗎?不完全是。真正壓垮它的,其實是更現實的一件事:算力。做視訊太貴了,有測算說,Sora 一天燒的錢在千萬美元等級,一年下來就是幾十億美元的等級。一個使用者生成一段視訊,背後燒掉的資源,夠 ChatGPT 回答幾十次甚至更多問題。為了控製成本,OpenAI 不得不把免費使用者每日生成額度從 30 個削減到 6 個。這樣下來,進一步削弱了普通使用者的使用意願,加速了留存崩塌。同時,Google Gemini、Meta,以及國內的可靈、即夢等競品相繼推出視訊生成功能,使用者分流加速,Sora 的壓力驟增。走到這一步,問題就很直接了,那個賺錢就保留那一個。於是再看 OpenAI 最近的一系列動作,就完全順理成章:整合產品線做“超級應用”,All in 程式設計和生產力,把算力、團隊、資源都往能賺錢的地方集中。甚至有消息稱,為了給下一代模型騰算力,像 Sora 這種高消耗、低回報的業務,優先順序直接被往後排。說白了,這不是“做不出來”,是“沒必要做了”。聽起來冷血,但在 IPO 前,砍掉浪漫、留下現金流,是所有公司的必修課。回頭看,Sora 確實在 AI 視訊領域開了個好頭,只不過如今主角換了。字節跳動 Seedance 2.0 在卷真實世界模擬,水、布料、微表情,全在往“像真人拍的”逼近。快手 Kling 3.0 已經把商業閉環跑通,幾千萬創作者、幾億條視訊,直接悶聲賺大錢。這裡有個很關鍵的差異,Sora 是在“創造一個新場景”,而這些產品,是在“吃已有場景”。中國有短影片、電商、微短劇這套完整生態,模型一出來,立刻就有人用、有人反饋、有人變現。這是一個天然飛輪,而 Sora 當初做獨立App,本質是在從 0 開始搭生態。沒有創作者體系,沒有分發管道,沒有內容土壤。技術再強,也很難跑起來。可見,AI 視訊這件事,已經從“誰模型更強”,變成“誰生態更完整”。AI 行業,也已然從“炫技階段”,進入“算帳階段”。 (科技狐)
字節的“羅福莉”,撐起了Seedance的半邊天
隨著小米新模型的推出,“天才少女”羅福莉再度成為焦點。其實在AI科學家圈子裡,女性數量雖然相對較少,但也絕非羅福莉一顆獨苗。在字節跳動,就有一位羅福莉式的人物。她就是Seedance 2.0視訊生成模型的預訓練負責人,曾妍。一般聊起Seedance 2.0,大家普遍想到的人是掌舵人吳永輝、研發負責人周暢、視訊生成技術核心負責人蔣璐。很少有人知道,曾妍的存在,同樣無可或缺。因為預訓練是整個模型的“基石”,它決定了模型的能力上限。大多數人把預訓練當成“喂資料”,但真正的高手知道,預訓練是在“塑造模型的世界觀”。資料怎麼配比、架構怎麼設計、訓練策略怎麼調整,每一個決策都在決定模型能看到什麼、理解什麼、生成什麼。無論你後面怎麼努力最佳化,預訓練只要沒做好,這個模型就一輩子達不到Seedance 2.0現如今的高度。不僅是貢獻大,曾妍的晉陞速度在字節也是相當快的。從她畢業進入字節開始算起,到現在的4-2職級,曾妍僅僅花了5年時間。4-2職級對應高級總監/權威架構師層級,屬於公司核心戰略級技術骨幹,年包(含基本工資、年終獎、股票)普遍在500萬以上。她到底做了什麼,才有如此成就?讓我們從她的求學之路說起。01 從西交到字節說實話,當我第一次看到曾妍的履歷時,並沒有覺得特別驚豔。1997年出生,西安交通大學本科,加拿大蒙特利爾大學電腦碩士。這條路徑放到現在的AI圈裡太常見了。但接下來發生的事,就不那麼“標準”了。2021年9月,曾妍以校招生身份加入字節跳動 AI Lab,起點職級是演算法工程師。入職僅兩個月,曾妍就以第一作者身份在arXiv上發表了論文《Multi-Grained Vision Language Pre-Training: Aligning Texts with Visual Concepts》,也就是後來大家熟知的X-VLM模型。這篇論文解決的問題,用大白話說就是:怎麼讓 AI 既能看懂“大場面”,又能注意到“小細節”。傳統的視覺語言模型有兩個極端。一種是“粗線條”派,只看圖像整體和文字的對應關係,就像你給AI看一張照片,它只能說“這是海灘”,但說不出更多了。另一種是“顯微鏡”派,依賴昂貴的目標檢測器去摳每個物體,雖然能看到細節,但計算成本高得嚇人,還得依賴大量人工標註資料。曾妍提出的X-VLM,就是取兩者之所長。它能同時學習從整體到局部、從場景到物體、從粗到細的多層次視覺概念,並與文字中的不同粒度資訊精準對齊。或者我用一個我最近剛學會的話來形容:既見森林,又見樹木。這個“多粒度對齊”的思想,在當時看起來只是個學術創新,但它為曾妍後來擔任Seedance 2.0預訓練負責人埋下了伏筆。因為視訊生成的預訓練,本質上也是個多粒度建模的問題。你要想生成一個好看的視訊,那就既要把握整體敘事節奏,讓一段視訊有連貫的故事線;又要控制每一幀的細節質量,確保人物面容不變形、物體運動符合物理規律;還要建立時序維度上的關聯關係,讓前後幀之間的過渡自然流暢。這剛和X-VLM的底層邏輯是一致的。接下來的兩年,曾妍就像開了掛一樣。她以第一作者身份在TPAMI、ICML、CVPR、ACL、NAACL等國際頂會發表了八篇論文,還擔任了TPAMI、ICML、NeurIPS、ICLR、ACL、EMNLP等頂會的審稿人。2023年,一個關鍵轉折點到來了。字節跳動成立大模型研究部門Seed,曾妍和所在團隊一同轉入。這個時間節點你得放在大背景下看,2022年底ChatGPT橫空出世,2023年初各大公司紛紛All in大模型,字節也在這波浪潮中調整了技術戰略。曾妍擅長的多模態預訓練,在視訊生成這個新戰場上,能發揮她的全部實力。在Seed部門,曾妍作為第一作者主導了兩個重要項目,分別是CCLM和Lynx。先說CCLM(Cross-View Language Modeling)。這個項目讓AI模型同時學會“跨語言”和“跨模態”的理解能力。CCLM通過統一的預訓練框架,讓在英文圖像-文字資料上訓練的模型,可以零樣本遷移到中文、日文等其他語言的多模態任務上。說白了,就是讓 AI 學會“舉一反三”——在英文視訊上學到的理解能力,能直接用到中文、日文、西班牙文的視訊上。再說Lynx。這是一個系統性研究如何訓練GPT-4風格多模態大語言模型的項目。2023年正是GPT-4剛發佈的時候,大家都在摸索怎麼做出“能看圖說話”的大模型。曾妍團隊通過一系列對比實驗,找出了模型架構設計、訓練資料配比、指令微調策略等關鍵因素,最終做出了 Lynx 模型,在多模態理解和指令跟隨能力上都表現出色。用人話說,就是研究“怎麼造出一個既能看懂圖片又能流暢對話的AI”,並且搞清楚了那些因素真正重要。真正讓曾妍“出圈”的,是2023年年底的PixelDance。這個項目的論文題目很有意思,叫《如何讓像素跳舞》(Make Pixels Dance: High-Dynamic Video Generation)。它解決的是視訊生成領域一個長期存在的矛盾,如何平衡動態性和穩定性。你想想,如果一個AI生成的視訊動作幅度很大、畫面變化劇烈,看起來確實生動有趣,但很容易出現畫面崩壞、角色變形、物體突然消失這些“靈異事件”。反過來,如果你追求穩定性,讓角色和場景保持一致,人物面容不突變,那生成的視訊就容易僵硬,像幻燈片切換而不是流暢的動態影像。曾妍團隊的突破在於,他們在預訓練階段就建立了嚴格的時序約束。傳統的視訊生成模型都是先生成視訊,然後再一幀一幀去修補。PixelDance則是讓模型學會了在保持一致性的前提下生成動態內容。核心創新點是在擴散模型框架中,引入首幀+末幀的雙圖像指令,配合文字指令聯合約束視訊生成,同時在網路結構中新增時序摺積與時序注意力層,從生成的源頭就錨定了視訊的起止狀態,從而保證大動態動作下的主體與場景一致性。就像訓練一個舞者,從一開始就教她在保持平衡的前提下做大幅度動作。PixelDance的成功,讓曾妍在字節內部的地位迅速提升。2024年,她從演算法工程師晉陞為演算法研究員,成為Seed團隊中最年輕的研究員之一。這個晉陞不只是對她學術能力的認可,更重要的是,她證明了自己能把研究成果轉化為實際產品。在大廠裡,這兩種能力的差別,就像會做菜和會開餐廳的差別。02 從 PixelDance 到 Seedance 2.0有意思的是,PixelDance就是Seedance的前身。Seed代表字節的大模型部門,dance則保留了“讓像素起舞”的核心理念。這個改名不只是品牌策略,更標誌著模型從研究原型向商業產品的轉變。2025年6月11日,字節正式發佈了Seedance 1.0,曾妍是該模型的核心研發負責人。雖然直至2026年2月,曾妍才被字節官方確認為Seedance 2.0 視訊模型預訓練負責人,但知情人士爆料,早2025年下半年時,曾妍就已經正式牽頭Seedance 2.0的預訓練全流程工作,成為該項目的核心一號位。她的+2 leader是周暢,+3 leader是Seed團隊負責人吳永輝。Seedance 2.0核心技術突破之一是雙分支擴散變換器架構,這是曾妍團隊在預訓練階段就確立的基礎架構。傳統視訊生成模型採用“先畫後配”的模式。即先生成視訊畫面,再單獨生成或匹配音訊。這種方式的問題在於,音畫分離導致同步性差,人物說話時嘴型對不上,背景音樂的節奏與畫面情緒脫節,音效出現的時機與畫面動作不匹配。Seedance 2.0通過視訊與音訊平行生成的方式,共享同一個理解編碼器,從根源上實現了音畫原生協同。這個架構設計的關鍵在於,讓模型在生成每一幀畫面的同時,就考慮對應的音訊應該是什麼樣的,而不是等畫面全部生成完再去“配”音訊。文章開頭我就講了,預訓練是整個模型能力的基石。曾妍在這個階段需要處理海量的視訊資料,建立視覺、文字、音訊等多模態之間的對齊關係。她通過引入“跨分支校準模組”,即時校準視訊與音訊的節奏、情緒與場景匹配度,確保嘴型與台詞同步、音效與畫面契合、背景音樂與情緒氛圍一致。預訓練階段把所有的多模態對齊關係、物理規律、運動模式都塞進模型裡,成為“默認項”。後續模型只要呼叫到相關內容,就會立刻給出預訓練時的結果。它不是簡單地讓模型記住訓練資料,而是讓模型從海量資料中提煉出普遍規律,形成對世界的基礎理解。Seedance 2.0生成時長1分鐘的2K視訊僅需60秒,比上一代Seedance 1.5 Pro快了30%。速度提升的背後,是曾妍團隊在預訓練階段對模型架構、訓練策略、資料配比的精細調優。她的團隊迭代速度極快,在預訓練階段就完成了擴散模型的多輪最佳化。最佳化注意力機制減少冗餘計算,改進噪聲調度策略加快收斂速度,精選高品質訓練資料提升樣本效率。每一個最佳化點單獨看都不起眼,但累積起來就是質的飛躍。模型規模越大,訓練成本越高,每一個百分點的效率提升都意味著數百萬元的成本節約和數周的時間縮短。Seedance 2.0還實現了多鏡頭敘事能力。這意味著模型不僅能生成長視訊,還能理解“全景-中景-特寫”的專業分鏡邏輯,自動規劃鏡頭切換,生成帶有蒙太奇效果的完整敘事序列。這個能力很大程度上依賴於曾妍在預訓練階段投喂的字節跳動海量短影片資料。抖音每天產生數以億計的短影片,這些視訊雖然大多是普通使用者拍攝,但其中不乏優秀的鏡頭語言和敘事技巧。曾妍團隊從這些資料中篩選出高品質樣本,讓模型學習到了人類導演的鏡頭語言和敘事節奏。這種從資料中提煉出的“導演直覺”。03 曾妍與羅福莉同為女性AI科學家,曾妍和羅福莉在模型研發中,都擅長尋找“平衡點”。在DeepSeek時期,羅福莉參與的DeepSeek-V2,通過MoE架構的稀疏啟動,把推理成本降到了GPT-4 Turbo的七十分之一,但是性能卻與頂尖的閉源模型十分相近。這就像設計一個大型圖書館,雖然藏書百萬冊,但每次查詢只需要翻開其中幾本,而不是把所有書都搬出來。這種“按需啟動”的機制,讓大模型的成本驟然下降,卻不怎麼損失性能。羅福莉在性能與成本之間,找到了這樣一個平衡點。到了號稱“性價比之王”的小米,羅福莉把DeepSeek的精神貫徹到底。她主導團隊與北京大學聯合研發資源管理系統ARL-Tangram,讓模型的算力成本直降71.2%。然而成本下降並不意味著性能下降。使用了該技術的兆參數的旗艦模型MiMo-V2-Pro,在Artificial Analysis全球大模型綜合智能排行榜上位列第八、國內第二。羅福莉證明了一件事:性價比不是某個項目的偶然,而是一種可以跨平台複製的方法論。曾妍的平衡點則是前文提到的動態性和穩定性,讓視訊生成模型又能講好故事,又有畫面張力和視覺衝擊力。兩人不同的是職業規劃。羅福莉從阿里跳到幻方,再到DeepSeek,這條路徑是“從大廠到創業公司,從工程應用到模型研究”。曾妍則是在字節內部一路深耕,5年時間完成了從校招畢業生,坐到了4-2的位置。兩條路徑沒有高下之分。在AI大模型這個燒錢、拼資源、看長期積累的領域,年輕的技術人才依然可以通過對問題的深刻理解,在短時間內做出關鍵貢獻。有可能他們研究的方向,你聽都沒聽過,但就是有效。她們的故事才剛剛開始。 (字母AI)
《吳宗憲跨縣力挺徐欣瑩 竹北竹東問政會爆滿、陪掃夜市拜票》國民黨新竹縣長參選人、立委徐欣瑩15日傍晚在竹北、竹東分別舉辦問政說明會,國民黨宜蘭縣長候選人、立委吳宗憲也親自來到現場為徐欣瑩助講,也陪同竹北夜市掃街拜票。吳宗憲說,現在執政黨「不潑髒水不會選舉」,徐欣瑩從政一路走來清清白白,相信徐在年底大選絕對不怕民進黨的抹黑造謠,也最有機會為國民黨守護新竹縣藍天,懇請新竹縣鄉親一定要支持「會贏的人」徐欣瑩。兩場問政會即便在周日舉辦,現場依舊人聲鼎沸,竹北場破千人出席,竹東場更是擠爆活動中心。甫通過國民黨宜蘭縣長黨內初選的立委吳宗憲也現身力挺。他說,為了徐欣瑩,即便雪隧塞車三個小時,還是要前來站台,就是希望正派、清白的人選能真正得到肯定。吳宗憲說,政府存在的目的就是要帶給人民幸福,如同新加坡政府強調誠信是基本要求。徐欣瑩不但正直、清廉、更值得信任,且說到做到。若我們期待台灣政治越來越乾淨,就應該全力支持願意做事且品格操守皆經得起檢驗的徐欣瑩。他也相信,鄉親絕對有智慧來分辨誰才是國民黨最適合的新竹縣長人選,吳宗憲還提到,民進黨選舉很厲害、不潑髒水不會選舉,當時他初選通過後,民進黨就頭很痛;同樣的,徐欣瑩和他一樣,一路走來清白乾淨,無懼抹黑,也絕對不怕民進黨造謠,也相信從政背景正派正直、且可以受到外界全面檢驗的徐欣瑩,在年底大選對民進黨時有更大的機會為國民黨獲得勝利。徐欣瑩致詞則用流利客語和國語侃侃而談,說明過去擔任兩任議員、兩任立委,為地方爭取上百億預算。這次參選新竹縣長,就是為了守護新竹縣的陽光政治和國民黨改革火種。未來擔任縣長也要加碼照顧包含竹東、竹北的全縣鄉親長輩和年輕家庭,提出包含敬老愛心卡由500元加碼至1,000元,並開放生活消費使用;針對所得稅20%以下的 65歲以上長者,全面補助健保自負額;推動「AI遠距視訊醫療」與「AI醫療專車」,以打破城鄉醫療落差等務實政見。徐欣瑩也強調「教育政策是重中之重」,新竹縣家庭家長常面臨育兒資源與教育的壓力,他承諾上任後將立刻增加幼兒園與2歲專班名額,並布建臨時托嬰托育系統,讓年輕家庭安心養育。對於中小學生,她主張讓孩子從小受AI教育薰陶,立即實現「人人有平板」,確保下一代站在世界最前面。
剛剛,蘋果祭出地表最強AI PC,頂配6萬5,M5 Max芯核彈AI性能暴漲4倍
蘋果一切向著AI,性能暴漲價格也暴漲。智東西3月4日消息,繼3999元用上蘋果A19晶片iPhone後,剛剛,蘋果春季新品發佈第二彈正式揭曉:兩款Mac筆電晶片:M5 Pro和M5 Max;兩款新電腦:蘋果MacBook Pro、MacBook Air;兩台新顯示器:Studio Display、Studio Display XDR;沒錯,庫克一口氣端上來6款重磅新品,各個都看點十足。作為地表最強PC筆電晶片,M5 Pro和M5 Max的CPU、GPU都有大幅性能升級,基於新融合架構“拼好芯”,蘋果將兩顆3奈米晶粒合二為一,與其他模組共同構成SoC,兼顧高頻寬和低延遲。兩顆晶片的每個GPU核心都塞入了神經網路處理器,加上統一記憶體性能的提升,M5 Max的AI峰值性能相比上代暴漲了4倍。比如在AI圖像生成任務中,搭載M5 Max的MacBook Pro比上代快了近4倍,在大語言模型提示詞處理、AI視訊處理方面也有數倍提升。AI,毫無疑問是兩顆晶片升級到重點。蘋果特別提到,他們“從頭到尾打造晶片都是為AI精心建構”。基於這兩顆晶片打造的新款MacBook Pro不僅有著Mac筆電史上最長的24小時續航、翻倍的固態硬碟速度,針對各類AI任務的處理速度都有大幅提升。相比之下,搭載M5晶片的MacBook Air就沒有太多升級點,輕薄、價格更低依舊是其核心優勢。兩款顯示器的升級重點一個是畫質,一個是介面擴展性,兩者均為27英吋5K解析度,蘋果稱之為“視網膜級”顯示,畫面非常細膩。兩者螢幕技術均為Mini LED,但XDR版有2304個分區並支援120Hz高刷,標準版只有60Hz。▲Studio Display XDR此次兩台顯示器的HDR峰值亮度升級到了2000nit;介面方面,兩款顯示器都支援最多6台串聯,顯示6000萬像素圖像。價格方面,14英吋搭載新M5 Pro的MacBook Pro起售價為17999元,儲存為24GB+1TB起步,如果是16英吋M5 Max版全部“拉滿”,總價最高在64719元,當然,這包含了兩款軟體和Apple Care服務,去除後大約58124元。即使是17999元的起售價,相比上代同儲存規格M4 Pro版MacBook Pro發售時的15699元,也漲了2300元左右。MacBook Air是16GB+512GB儲存規格起步,13英吋售價8499元起,上代同規格M4版MacBook Air售價9499元,下降了1000元。但值得注意的是,新款MacBook Pro和MacBook Air的起步固態硬碟規格都漲了,Pro從512GB漲到了1TB,Air從256GB漲到了512GB。哦對了,蘋果生怕你不知道該不該升級、提升大不大,所以貼心的為你放上了“比一比”,但其中只有M2及以前的老機型,甚至還有英特爾處理器的機型對比。使用者心理拿捏這塊,庫克是懂得。兩款顯示器,Studio Display起售價為11999元,Studio Display XDR起售價為24999元,Nano-texture奈米紋理螢幕玻璃版本售價27499元。好傢伙,“一層膜”2500元,果然夠蘋果。所有新品都是3月4日開始預購,3月11日正式發售。01.晶片封裝黑科技加持單線程王者依舊,AI能力大提升作為M5系列的兩款新品,M5 Pro和M5 Max的GPU同樣加入了神經網路加速器,與M5相同,因此這兩款晶片的AI性能也進行了重點升級。蘋果稱這兩款晶片使用了他們設計的新融合架構:將兩顆晶粒結合為一個單片系統(SoC),也就是我們在Ultra上曾見到過的“拼好芯”,也是業內目前稱之為“Chiplet”的熱門晶片封裝工藝。這一工藝兼顧高頻寬、低延遲,將兩顆第三代3奈米晶粒合二為一。兩顆晶粒集CPU、GPU、媒體處理引擎、統一記憶體控製器、神經網路引擎和雷靂5控製器於一體。M5 Pro和M5 Max的CPU均為18核,包括6顆性能較高的“超級核心”和12顆針對高能效、多線程工作負載最佳化的性能核心。因此也可以說是“全大核”架構。根據蘋果官網資訊,18核CPU專業工作複雜處理性能最高提升30%。蘋果特別提到,CPU的單線程性能首屈一指,這部分得益於更高的前端頻寬、新快取結構和強化的分支預測技術。GPU方面,M5 Pro和M5 Max有較大差異。M5 Max的GPU最多支援40顆核心,每個核心裡都有神經網路加速器,GPU配備了更高的統一記憶體頻寬,處理AI任務的峰值GPU計算性能相比前代機型提升了4倍。圖形性能方面,對於使用光線追蹤的App,GPU性能相較M4 Pro和M4 Max提升最高可達35%。M5 Pro的GPU為20核,僅有Max版的一半,處理AI任務時的峰值GPU計算性能相比M4 Pro提升超過4倍。其他方面,M5 Pro和M5 Max都整合了16核NPU,安全性方面,支援Memory Integrity Enforcement,蘋果稱這是一項行業首創的記憶體安全保護功能。蘋果硬體技術高級副總裁,我們的老熟人Johny Srouji稱,M5 Pro和M5 Max代表了蘋果晶片的里程碑式提升,MacBook Pro性能、能效和裝置端 AI 處理能力的大幅提升都離不開兩顆晶片的升級。▲在Xcode等App中加速程式碼編譯和裝置端智能體程式設計02.史上續航最長的Mac筆電AI和專業生產力是重頭戲新款MacBook Pro的晶片有M5、M5 Pro和M5 Max三個版本,AI能力有重點增強。蘋果稱這是史上續航最長的Mac筆電,最長可達24小時,並且快充只需要30分鐘就能充50%電量。14英吋機型可選配M5、M5 Pro或M5 Max晶片,16英吋機型可選配M5 Pro或M5 Max晶片。M5 Max晶片的GPU還分為32核和40核不同版本,庫克這刀法,真的切麻了。儲存方面,MacBook Pro的固態硬碟速度最高提升了2倍。新款MacBook Pro的讀寫性能峰值速度為14.5GB/s,在處理4K與8K視訊項目、大語言模型和複雜資料集等任務工作流時能提高效率。此外,MacBook Pro搭載了N1晶片,支援Wi-Fi 7和藍牙6。蘋果特別提到,M5系列晶片的GPU內都有神經網路加速器,對基於擴散模型生成圖像、大語言模型提示詞處理,裝置端Transformer模型訓練等各類AI任務的處理速度都有大幅提升。在蘋果看來,M5 Max是其為專業級Mac筆電打造的最強晶片,目標使用者是3D特效藝術家、AI開發者和電影作曲家。蘋果強調稱,蘋果晶片以及驅動它的每個重要子系統,都是圍繞AI所設計,“從頭到尾打造晶片都是為AI精心建構”,其優勢在於整合硬體、軟體和生態系統。在官網案例中,蘋果提到了Msty Studio、LM Studio這些大語言模型App,App中的AI工具也可以在晶片加持下獲得更好體驗,比如Logic Pro中的大分軌拆分器AI功能。▲AI圖像、音訊處理提到AI處理能力提升,統一記憶體的升級也發揮了作用,M5 Pro支援最高307GB/s記憶體頻寬,M5 Max則支援最高614GB/s記憶體頻寬。在很多高端PC筆記型電腦都升級了OLED螢幕的今天,蘋果頂級MacBook Pro仍然採用了一塊LCD螢幕,當然,這塊螢幕的素質沒得說,與上代參數基本看齊,不過“昏暗環境亮度可降到1尼特”算是蘋果在護眼方面的一點升級。MacBook Pro的介面依然豐富,配備了三個雷靂4或雷靂5連接埠、一個HDMI連接埠、一個MagSafe 3連接埠、一個SDXC卡插槽和一個耳機插孔。電腦手機互聯方面,iPhone鏡像、即時活動、通用剪貼簿、電話App、接力都是我們很熟的功能了,不做贅述。相比MacBook Pro,MacBook Air的配置相對簡單,晶片只有M5一個版本,續航最長18小時。在核心的輕薄方面,13英吋的MacBook Air重量為1.23千克,厚度不到1.2釐米,另外還有15英吋的版本。在MacBook Air部分,蘋果依然強調了AI能力的提升,當然,與Pro相比會少一些專業軟體的介紹。03.“視網膜”級顯示器來了連接擴展性大提升除了兩款新MacBook,蘋果這次上架的兩款“專業”顯示器同樣可圈可點。27英吋的Studio Display有著5K解析度(5120x2880),是一款Mini LED顯示器,峰值亮度從此前蘋果“祖傳”的1600nit升級到2000nit,更新頻率為120Hz。今年新iPhone 18系列的螢幕峰值亮度或許也會同步提升至2000nit。Studio Display XDR同樣為27英吋5K解析度的Mini LED顯示器,調光分區增加到2304個,HDR峰值亮度同樣升級到了2000nit。5K解析度總共有1400多萬個像素,在27吋的尺寸下,蘋果稱之為“視網膜螢幕”。兩台顯示器都配備了1200萬像素攝影機,支援人物居中跟蹤。介面方面,兩款顯示器都新增了雷靂5連接能力,總共提供2個連接埠,可以最多同時串聯4台Studio Display顯示器,實現接近6000萬像素的畫面顯示。在專業性方面,Studio Display XDR在P3廣色域之外新增了對Adobe RGB色域的支援,可以說是一款校準參考顯示器,對印刷設計類專業人士是一大利多。04.結語:軟硬一體協同仍是蘋果AI時代王牌此次蘋果祭出的兩款王炸晶片,以及基於晶片升級的新款Mac筆電,都花了不少篇幅提及AI方面的能力提升,以及在各類端側AI應用方面的流暢表現,可以看到,蘋果對AI是非常重視的,而晶片層的支援則成為蘋果產品的獨特優勢——軟硬協同一體。面向未來的AI大戰,蘋果智能在國內的落地備受關注,3月4日蘋果會在上海的活動中放出怎樣的驚喜,我們拭目以待。 (智東西)
AI 爆款視訊製作復盤:全網2500萬曝光、Cursor+Seedance,我如何做的?
在視訊/音訊/文字內容生成技術越來越強的當下,AI時代的內容創作者要如何更好利用AI?創作者和工具之間的關係會如何發展?Medeo 產品負責人晨然在這篇文章裡拆解了自己用Seedance 2.0 製作爆款視訊的全流程,很有參考意義。2月12號,我發了一條用 AI 做的《怪奇物語》終局之戰的視訊。然後它爆了。僅黑叉平台一個管道,92 條相關推文的總瀏覽量就達到了 1914 萬。總點贊 52 萬,轉發 4.9 萬,回覆 5000+。其中我的原帖只佔了 234 萬瀏覽,剩下 1680 萬全是別人搬運和討論帶來的。最大的搬運者是巴西博主 @nerdemcartaz,他一條轉發就拿了 492 萬瀏覽——比我原帖還多一倍。我的視訊被全球至少 6 種語言的人搬運:英語、葡萄牙語、土耳其語、中文、日語、西班牙語。Ins 上至少 12 個帳號搬運,估算曝光 500-1000 萬。TT 估算 100 萬+。油管也有大量傳播。最讓我詫異的是——好萊塢頂級媒體 Deadline 寫了專題報導,Cosmic Book News 也做了報導,專門提到了我的視訊,原文說 "one post has more than 2M views"。全網總曝光保守估計:2500 萬+。我一個人做的 AI 視訊,全球拿了 2500 萬曝光,還上了好萊塢的新聞。01 先有了爆款方法論,我才有了爆款視訊但最離譜的不是這個資料——而是這件事發生的時間線。故事要從兩天前說起。2月10號,我在給 Medeo 的同事們寫了一篇文章,叫如何提升網感,做出百萬播放量的視訊?那篇文章裡,我認真分析了爆款的底層邏輯。我寫道:內容要的就是稀缺。任何內容都必須滿足稀缺這個屬性。我總結了社交媒體上的各種稀缺性類型——虛構昂貴的電影場景、IP 混搭的同人二創、高動態的超越人類體驗的內容、風格反差……我還說了,一個好的爆款內容,需要同時滿足好幾個維度:對於稀缺性的精準設計對於某個"梗"的深刻理解對於情緒共鳴點的放大指令碼階段,基本上就能預判出內容是否具備爆款潛力。寫這些的時候,我信心滿滿。方法論已經想得很清楚了,每一個點我都分析得頭頭是道。但是——寫那篇文章的時候,我自己其實還沒做出過爆款。文章裡我放了好多自己做的實驗視訊:如來佛祖玩 VR 壓孫悟空、Taylor Swift 和 Blackpink 在舞台上互扯頭花、寂靜嶺風格的逃跑視訊……每一個我都覺得不夠好。我給自己的評價是:笑點不夠密梗不夠多資訊密度太低反轉力度不夠那篇文章的最後一句話,我寫的是:"我還在摸索中。"就很真實對吧?一個還沒做出過爆款的人,在寫怎麼做爆款的方法論。那個時候,我不知道這套理論到底行不行。我只是覺得方向是對的,但還在實踐的路上。說實話,心裡是有一點慌的。萬一這套東西根本不管用呢?誰能想到,僅僅兩天后,視訊就真的爆了。2月12號,我用 Seedance 2.0 做的《怪奇物語》終局之戰視訊爆了。然後——一切都變了。瀏覽量開始飛漲。搬運開始瘋狂傳播。我眼睜睜看著通知列爆炸。爆款的體感是,即時能刷新出評論,像在看時間線一樣。評論區徹底炸了。各種各樣的人在說各種各樣的話:怪奇物語的粉絲最激動。他們等了這麼久,終於看到有人"修復"了那個讓他們失望的結局。評論裡到處都是:"This is better than what we got"(比我們看到的原版好多了)"We're not ready for this"(我們還沒準備好接受這個)"AI just gave us the ending we deserved"(AI 給了我們應得的結局)科技圈和路人直接被震住了。 很多人根本不敢相信這是 AI 做出來的:"AI is getting scary"(AI 開始嚇人了)"This is terrifying"(這太恐怖了)"Hollywood is cooked"(好萊塢完蛋了)"AI is happening fast"(AI 發展太快了)還有人叫我修復權游結局。有人甚至在爭論我的視訊到底有多少是 AI 生成的、多少是真實素材混剪的Cosmic Book News 專門寫道:"The face matching and voice syncing are so tight that people are debating how much of the footage is AI versus blended source material."(面部匹配和聲音同步做得太逼真了,人們在爭論到底有多少是 AI 生成的。)最離譜的是行業內的人也來了。 SAG-AFTRA(美國演員工會)甚至因為這波 AI 視訊浪潮專門發了聲明。Deadline 寫了專題報導,Cosmic Book News 也做了報導,都點名提到了我的《怪奇物語》視訊。(雖然是點名批評,但也是一種認可…)巴西博主 @nerdemcartaz 搬運了我的視訊,單條就拿了 492 萬瀏覽——比我原帖還多一倍。全球至少 6 種語言的人在搬運和討論。從英語、葡萄牙語、土耳其語,到中文、日語、西班牙語——我根本看不懂一半的評論,但我看得懂下面的數字在漲。02 復盤:我到底是怎麼做到的?回過頭看,這次爆發的核心原因,恰恰就是我在2月10號文章裡分析過的那個詞——稀缺性。只不過這次,好幾個維度的稀缺性同時疊在了一起。一、時間節點的稀缺Seedance 2.0 當時只有中國創作者能用,外網創作者還用不上。這個時間窗口非常關鍵——我們比別人早拿到了武器,就應該第一時間製作視訊。二、AI 臨界點的爆發AI 視訊的質量到了一個臨界點。大部分普通觀眾根本不知道現在的 AI 原來已經可以做到這麼好了。這種"震驚感"本身就是巨大的稀缺。三、內容本身的稀缺這一點是最關鍵的。《怪奇物語》的粉絲對結局不滿意。這種不滿催生了強烈的內容需求。內容是由市場催生的,由市場決定的。創作者並不是真的在引領時代,你只需要比市場和觀眾的預期跑在前頭一點點,這就是好的內容。看起來你是在做很多創新的東西,實際上是因為人心所向,很多人期待看到這樣的內容,它就應該被做出來。創作者只是一個承接的載體,負責將這些內容具象化。2.1 寫指令碼佔了我 80% 的精力。我在 Cursor 裡面和 AI 模型一起討論,讓它去全網搜尋《怪奇物語》中有那些缺憾點,大家在 Reddit 上對結局有什麼不滿。我想彌補這些缺憾。自己去想一個指令碼很可能不符合市場預期,所以我會跟 AI 反覆討論、不停迭代。這個過程是非常迭代式的:我一開始並沒有寫整個兩分半鐘的指令碼,甚至都沒想過要做到兩分半。製作過程是每 15 秒、15 秒進行的。每次只想 15 秒的指令碼,要求接下來的 15 秒一定有節拍的反轉。我是看了 AI 做出來的 15 秒之後,才決定接下來要怎麼做。有時候是 AI 生成的戰鬥畫面給了我靈感,我再回去改指令碼。最多同時只構思了 30 秒的內容。整體的故事框架直到做到 80% 的時候才成型——最開始只是有一個方向。先做 MVP 測試本來我設想了很長的劇情,但有可能做出來沒人看。在做長視訊之前,我先做了一個成本很低的 MVP 實驗。我一個晚上先做了《怪奇物語》的第一集短片,40秒內容,發在小紅書上,很快就有幾百上千的點贊。這說明——這是市場需要的內容。第一集在抖音也爆了,3k贊,比我以前所有視訊好。直接做長視訊,很有可能做出來沒人看。用短影片先測試,成本很小,速度很快。驗證了之後,再放心地投入精力做長的。2.2 打鬥設計:一層比一層爽做第二集的時候,我關注兩個點:文戲要貼近角色,打鬥要極其精彩。打鬥分三個環節,規格一層層升級,讓觀眾越來越爽:Will 對抗 Vecna —— 觀眾特別想看到 Will 覺醒超能力,反抗第一季就抓走他的 Vecna。Eleven 和 Eight 聯手打 Vecna —— 彌補了她們從來沒合作過的遺憾。他們三個都是從同一個實驗室出來的,這種三角關係本身就有內在的張力。奪心魔打 Vecna —— 怪物之間的大場面,超出所有人的預期。最後引出 Max 拯救小 Henry 的終極反轉。2.3 反轉、反轉、再反轉這次經歷之後,我對一件事的理解變得非常深刻視訊是一個線性的東西。什麼意思呢?視訊不像文章,讀者可以跳著看、掃一眼標題就知道大概。視訊是一秒一秒往前走的,觀眾只能按順序看。如果他在第 3 秒劃走了,你後面做得再精彩他也看不到。完播率的資料是很殘酷的:2 秒內劃走的人可能就有一半,5 秒內劃走的人可能是 80%。想想這意味著什麼——你辛辛苦苦做了兩分半鐘的視訊,80% 的人連前 5 秒都沒看完就走了。你後面所有的高光、所有的反轉、所有的精心設計,對這些人來說根本不存在。以前我對這件事的意識沒那麼深刻。但現在,我對前 3 秒和前 5 秒的設計極其看重。因為如果前 5 秒留不住人,後面就是廢片。不是後面做得不好,是觀眾根本沒機會看到後面。所以整個視訊就是一個線性的大漏斗:每一秒都在流失觀眾,你能做的就是讓每一秒都有值得看下去的東西,把流失降到最低。我在設計劇情的時候,核心原則就是——每一秒都要有爆點,每一秒都要有很高的資訊密度,觀眾才不會劃走。整個兩分半鐘的視訊,我至少設計了 8 次反轉:反轉一(前 5 秒): 讓觀眾瞬間意識到這是一個同人二創。場面上,竟然能看見 Will、Eleven 和 Eight 聯手對抗 Vecna。前 5 秒就給到了 Will 高光,展示他掌控了"蜂巢"的超能力並用來反攻 Vecna——這是開篇的爽點。反轉二: 當觀眾以為 Will 能夠跟 Vecna 決一死戰時,劇情反轉了:Vecna 直接打敗了他,Will 的控制力瞬間消失。反轉三: 當觀眾以為主角團即將被抓時,Eight 的幻覺起了作用,給觀眾一個喘息的機會。反轉四: 當觀眾以為 Eight 的幻覺很強時,Vecna 展現了更強的能力,直接把 Will 抓走。此時節奏慢下來,給出反應鏡頭。反轉五: 當觀眾以為 Will 被抓、大家陷入無奈時,安排 Eleven 和 Eight 聯手進行一段高強度的打戲。反轉六: 當觀眾以為這段打戲能贏過 Vecna 時,結果反轉成三個人都被抓。隨後進入一段文戲對抗,增加內在張力。反轉七: 當觀眾以為他們還會繼續打鬥升級時,場外的奪心魔加入戰鬥,讓事情變得更加有趣。場外因素是一個超出預期的變數,打破了打鬥的平衡,就會很有意思。終極反轉: 在觀眾還不知道發生什麼的時候,讓 Max 成為主角並獲得高光,拯救過去的小 Henry。整個劇情設計就是反轉、反轉、再反轉。 觀眾永遠猜不到下一秒會發生什麼,這就是他們不會劃走的原因。用反轉跑贏了小紅書大盤2.4 文戲:每句台詞都要簡短有力我在設計文戲的時候,刻意要求每個角色說的話都非常簡短有力。而且每個人都必須有高光,每個人都必鬚髮揮作用,每個人的作用之間還要有張力。這裡拿幾段我設計得比較滿意的文戲來拆解一下。Will:"You put this thing inside me. Now it's mine!"這是開場第一句有台詞的文戲。Will 翻著白眼嘶吼出這句話的時候,控制著魔王衝向 Vecna。為什麼這句台詞有力?因為 Will 從第一季就被 Demogorgon 抓走,第二季被 Mind Flayer 附身——他從頭到尾都是一個受害者。觀眾等了五季,就想看 Will 站起來。而這句話的意思是:你在我身上種下的東西,現在我學會用它了,而且比你用得更好。 他不是在否認這段創傷,他是把創傷變成了武器。劇本裡 Vecna 後來在空中還嘲諷他:"You think that power belongs to you? I planted it in you when you were twelve. Every connection, every whisper you ever heard — was me calling it home."Will 咬著牙回了一句:"Then you made a mistake... because I learned to use it better than you ever did."這段空中對峙的文戲,我故意把節奏放慢了——前面全是快切打鬥,突然慢下來,兩個人在血紅天空下面對面懸浮,給每一句台詞留呼吸的空間。快和慢的對比,讓台詞更有重量感。Eleven + Eight + Vecna 的三人對峙這是我覺得全片情緒最集中的一段文戲。三個人全部被 Vecna 抓住,動彈不得。此時打鬥已經打不了了,只剩下語言。我喜歡他們三人的內在張力衝突,都是一個實驗室的。Vecna 居高臨下地說:"A new world is coming. And none of you will be in it."Eleven 滿臉鮮血,但抬頭死死盯著他:"There is no new world. Only you, alone."——這是在戳 Vecna 最深的恐懼。他不是在建設什麼新世界,他只是一個孤獨的人。然後 Eight 嘴角掛著血,扯出一絲笑:"You sound just like Papa."這一句是我跟 AI(Claude 4.6 Opus)聊出來的。我跟它說,我需要一句簡短有力的嘲諷,要能夠一下子把 Vecna 惹怒。為什麼這句話殺傷力這麼大?因為 Vecna 的前身 Henry Creel 從小就被 Dr. Brenner(Papa)當作實驗品,被關在實驗室裡,被當作工具。他恨透了 Papa,恨透了被控制的感覺。他後來殺了實驗室裡幾乎所有人,就是為了反抗 Papa。但現在——他在做什麼?他在控制別人,把別人當工具,居高臨下地宣判誰有資格活著。他變成了自己最討厭的那個人。 而說出這句話的是 Eight——同樣從那個實驗室出來的孩子。她太清楚 Papa 是什麼樣了,所以這句話從她嘴裡說出來,殺傷力是最大的。指令碼裡我寫了 Vecna 的反應:表情瞬間僵住,嘴角弧度消失,瞳孔微縮。然後憤怒從臉上炸開——藤蔓不受控制地狂亂抽搐。他被戳中了。Eight 的 "try harder"還有一段——Eight 用幻術騙了 Vecna,讓他以為抓住了三個人,結果全是幻影。Vecna 碾碎幻影之後停頓了一瞬,Eight 從掩體後面抬起下巴看著他,鼻血掛在臉上,嘴角一扯:"Try harder."就兩個詞。但你能感受到她的那種不屑——你這麼強大,結果連真假都分不清?這種挑釁反而讓 Vecna 看起來更可怕,因為他馬上就爆發了,新的藤蔓比之前更快更密地射出來,一把抓走了 Will。Max 的 "Got you."最後說一段我特別喜歡的設計。Max 在精神世界裡待了很久(原劇第五季設定裡她的意識被困在 Vecna 的精神世界中)。她見過無數次幼年 Henry Creel 的記憶——一個蹲在黑暗洞穴裡瑟瑟發抖的小男孩,手裡攥著一塊被奪心魔寄生的石頭。但原劇裡 Max 從來沒有過去跟那個小男孩互動過。我覺得這是一個遺憾——小 Henry 也是一個等待被拯救的孩子。所以在我的指令碼裡,我安排 Max 飛昇進入 Vecna 的精神深處,蹲在小 Henry 面前,輕輕從他顫抖的手裡接過那塊石頭,把他護在身後。然後她低頭看著掌心中的石頭,嘴角緩緩上揚:"Got you."就兩個字。但你能感受到她已經贏了。這個高光比安排她去拯救 Holly 要出彩得多——Max 一直有一種"孩子王"的氣質,她來保護這個被所有人遺忘的小男孩,才是最適合她的高光。03 我是怎麼用 Seedance 和 Cursor 的前面聊的都是指令碼和創意層面的設計思路,這裡說一下具體的製作流程——我是怎麼把指令碼變成視訊的。指令碼的固定格式,我在 Cursor 裡面給每一個生成場景寫指令碼,用了一套固定的格式。每個生成指令碼都有幾個固定類股:角色 + 參考圖——每個出場角色都對應一張參考圖,用 【@圖片】 的方式引用背景介紹——交代前情和環境鏡頭描述——逐鏡頭寫清楚畫面內容、角色動作、台詞風格指令——統一的視覺風格要求關鍵是多參考圖的方式。每個角色一張參考圖,場景也有參考圖,一個 scene 可能會掛 6-8 張圖。這樣做的好處是 Seedance 在生成的時候能更準確地還原每個角色的臉和穿著,不會搞混。尤其是多角色同框的場景,沒有參考圖的話 AI 很容易把人搞混。這裡有一個小技巧:你可能會問,《怪奇物語》的角色 IP 已經被訓練進模型了,為什麼還需要用參考圖?原因有三個:固定年齡。 《怪奇物語》拍攝跨度很大,演員們從 11 歲拍到成年。模型的訓練素材裡包含了多個年齡段的形象,如果不用參考圖鎖定,生成出來的可能是 11 歲的 Eleven,也可能是 18 歲的——你沒法控制。參考圖可以鎖定"我要的就是第五季這個年齡的臉"。統一穿著。 每個角色在不同季、不同場景裡的穿著完全不一樣。我需要保證整個視訊裡每個角色的衣服、造型和定妝照保持一致,這只能靠參考圖來固定。還原戰損狀態。 大戰場景裡每個人臉上都有傷、有血、有灰塵。這種"戰損妝"是原始訓練資料裡沒有的,必須通過參考圖來告訴 AI "這個角色現在長這樣"。所以,即便有了訓練好的模型,依然必須要用參考圖。 模型知道這個人是誰,但參考圖告訴它:這個人現在幾歲、穿什麼、臉上有沒有傷。那麼角色參考圖從那裡來呢?我直接下載了最後一集,從原視訊當中截了每個角色的圖。場景參考圖怎麼來的呢?用Medeo生成的。因為Medeo能理解我的劇本直接做出來。3.1 用 Cursor 的資料夾管理資源在 Cursor 裡面,我用資料夾來管理整個項目的所有資源:所有參考圖統一放在一個資料夾裡。每個角色的參考圖、每個場景的參考圖,都按編號整理好。寫指令碼的時候直接 @ 引用對應的圖片就行,不用到處找。每個 scene 的參考圖按格式逐一放入指令碼。 寫完之後,一個 scene 的所有資訊——prompt 文字、角色圖、場景圖、風格指令——全都集中在一起。可以直接一次性複製貼上到即夢裡。 做視訊的時候,我打開指令碼檔案,找到對應的 scene,整塊複製過去就能開始生成。不需要來回切換窗口找素材、找描述、找風格指令。這個工作流看起來簡單,但省掉了大量的來回切換和尋找時間。做 AI 視訊最怕的就是素材散落在各處,每次生成都要東翻西找。把一切集中在一個格式化的指令碼檔案裡,效率提升非常大。3.2 10-15 秒一個 scene = 一次生成 = 一個反轉我的每個 scene 設定在 10 到 15 秒。因為 seedance 最大生成秒數是 15秒。前面說過,我要求每 15 秒必須有一次情緒反轉。所以一個 scene = 一次生成 = 一個反轉節拍,三者完美對齊。這意味著我每做完一個 scene,就能看到一個完整的情緒波動:鋪墊 → 高潮 → 反轉。看完之後,我再決定下一個 scene 怎麼接——是繼續升級,還是突然轉向。這也是我之前說的"迭代式創作":做一段、看一段、想一段。根據 AI 實際生成出來的畫面來調整後面的走向。有時候 AI 生成的畫面超出預期,反而給了我新的靈感,我就回去改指令碼。3.3 指令碼和生成是互相喂養的,不是單向的。很多人可能以為 AI 視訊是"生成一次就能用"的。實際上遠不是這樣。我的做法是:每一個 scene 的 prompt,我會生成 4 到 6 次。 然後把所有能用的素材全部拖到剪輯軟體的時間軸上,進行混剪。為什麼要這樣做?第一,視覺一致性好。 因為用的是同一個 prompt,Seedance 2.0 的指令遵循度很好,生成出來的多條素材在風格、色調、角色外觀上會非常接近。這意味著把它們剪在一起的時候,觀眾不會覺得突兀——看起來就像是同一個鏡頭的不同角度。第二,打鬥場景必須剪輯。 像打鬥這種複雜場景,AI 生成的畫面還是會有很多穿幫的地方——手臂穿模、動作不連貫、物體突然消失之類的。這時候就需要用剪輯技巧來處理,比如匹配剪輯,在穿幫的地方切到另一條素材的對應時刻,觀眾就看不出來了。第三,提高素材利用率。 這一點很關鍵。AI 生成的視訊,很多時候不是整條都能用的:一條視訊可能只有 60% 是好的,剩下的穿幫了,那我就只取那 60%。有時候畫面不行,但角色的配音表現特別好——語氣、情緒都很到位。這種情況我就單獨提取音訊,然後配上另一條素材的畫面。反過來也有畫面很好但聲音不對的,同樣可以互相替換。所以最終的成片,其實是從 4-6 條可用素材裡挑出最好的部分,拼在一起的。04 最後說一個比較玄的體會。在創作過程中,我有的時候會注意到一些很奇怪的細節——一個角色的表情、一段對話的節奏、一個畫面的構圖。當時說不清楚為什麼覺得重要,但就是覺得不對,或者覺得很對。後來我發現,這些直覺往往是對的。比如我在設計 Max 拯救小 Henry 那場戲的時候,一開始並不是計畫好的。是我在看劇的時候突然覺得"這個小男孩好可憐,為什麼沒有人去管他"——就這麼一個模糊的念頭,最後變成了全片最打動人的一個設定。以前看書看到,編劇的方法論中有一種"頓悟時刻",就是你把一個個拼湊起來的線索合併成一個完整的劇情,突然覺得"啊,原來是這樣"。就像《星際穿越》裡主角掉進黑洞,觀眾突然理解了——四維空間就是未來的人類。那個"啊"的瞬間,是最讓人爽的。好的創作不是從頭到尾都想清楚了再做。好的創作是在做的過程中,不斷相信自己的直覺,然後一步步把模糊的感覺變成清晰的作品。說實話,這次爆發運氣成分很大。Seedance 2.0 剛好在那個時間點發佈,我剛好是最早知道的一批人,《怪奇物語》剛好是全球熱度最高的 IP 之一,剛好粉絲對結局不滿意……這些條件湊在一起,換一個時間點發,可能就沒這個效果。但也不完全是運氣。我之前花了不少時間研究什麼樣的內容容易傳播,選《怪奇物語》也是因為自己本身就喜歡這部劇、瞭解粉絲的痛點。指令碼花了 80% 的精力,做之前還先用短影片測試過市場反應。這些準備不能保證一定會爆,但至少讓我在機會來的時候,不至於手忙腳亂。整個過程創作還是不夠順手,未來一定會有更好的創作工具讓人上手。比如我正在做的AI視訊產品,Medeo,就是希望一站式創作,從生成到剪輯成片,都可以和Agent協作完成,那就太爽了。我會把這個創作過程做進產品,讓更多人能更簡單的創作!期待 Medeo 下次更新吧!2月10號,我寫了一篇《如何做爆款》的文章,最後一句話是"我還在摸索中"。2月12號,全網 2500 萬曝光,好萊塢媒體來報導了。中間只隔了兩天。有時候我也會想,這到底是方法論的勝利,還是純粹的運氣?說實話,我覺得兩者都有。但如果讓我重新來一次,我不會改變任何一個步驟——研究稀缺性、用 MVP 測試、一個 scene 一個 scene 地迭代、把 80% 的精力花在指令碼上。這些東西不能保證你一定會爆。但它們能保證提高爆款機率。至少下次我能在發之前提前預判:這有沒有可能爆了。 (Founder Park)
瞞不住了!透視Seedance 2.0關聯深企:這才是深圳硬核實力
字節跳動推出的AI視訊生成模型Seedance 2.0,在2026年2月初引爆了全球科技和創投圈。Seedance雖然是字節跳動的產品,但它的研發與深圳這座城市緊密相連。根據公開的工商資訊,Seedance 2.0是字節跳動旗下即夢AI開發的產品,而即夢AI的關聯公司——深圳市臉萌科技有限公司,由字節跳動全資持股,就坐落於深圳。▲圖源:CFP這意味著,這款在全球範圍內引發關注的AI應用,其核心研發和營運實體就在深圳。這不僅體現了深圳在吸引和培育高科技企業方面的優勢,也展示了深圳在AI應用層面積累的深厚人才和技術底蘊。一幅以人工智慧和具身智慧型手機器人為雙引擎的科技創新藍圖徐徐展開。深圳正以“全端自主可控”的雄心,加速建設全球人工智慧先鋒城市和具身智慧型手機器人產業集聚區,在全球科技競爭的新賽道上展現出中國科技創新第一城的硬核實力。AI先鋒:打造全端自主可控的智能底座2026年深圳政府工作報告明確提出:加快建設全球人工智慧先鋒城市,力爭人工智慧產業叢集增加值增長10%以上。這一目標背後,是深圳在AI領域建構的完整創新矩陣。▲圖源:CFP在算力基礎設施方面,深圳正在建構“四算合一”(通算、智算、超算、量算)的算力網路,福田區作為重要承載地,推動“港數深算”打通深港資料與算力壁壘。光明實驗室、福田實驗室、領先邊端智能開放研究院等創新平台高標準推進,深圳河套學院高水平建設,形成了從基礎研究到產業應用的完整鏈條。在技術攻堅層面,深圳集中力量突破演算法理論、模型架構、智算晶片、基礎軟體等核心技術。2026年,全社會研發投入將增長10%以上,實施基礎研究項目180個以上,重點產業研發項目150個以上。這種“頂天立地”的創新體系,正是深圳建設具有全球重要影響力的產業科技創新中心的核心支撐。更具戰略眼光的是,深圳正加強全端自主可控AI軟硬體生態建設。從晶片到框架,從演算法到應用,深圳正在建構不依賴外部技術的完整AI生態,這在當前國際形勢下具有深遠的戰略意義。具身智能:從“八大金剛”到千億產業叢集如果說人工智慧是“大腦”,具身智慧型手機器人則是“身體”。2026年,深圳依然將人工智慧列為重點壯大的四大戰略性新興產業之一,標誌著這一未來產業正式進入深圳產業政策的C位。▲2026年2月14日,深圳,全球首屆春節嘉年華——未來同頻 人機共生。深圳在具身智能領域的佈局早已先行一步。目前,深圳已培育出“八大金剛”——數字華夏、眾擎機器人、逐際動力、帕西尼、智平方、跨維智能、優必選、普渡科技。這些企業構成了深圳具身智能產業的第一梯隊。據統計,深圳共有5.11萬家機器人相關企業,數量穩居全國首位,產業鏈總產值超過1700億元。根據《深圳市具身智慧型手機器人技術創新與產業發展行動計畫(2025-2027年)》,到2027年,深圳將實現:具身智慧型手機器人產業叢集相關企業超過1200家,新增培育估值過百億企業10家以上、營收超十億企業20家以上,關聯產業規模達到1000億元以上。2026年,深圳還將推出10個以上產業集聚效應明顯的人工智慧和具身智慧型手機器人創新孵化器。在核心技術方面,深圳重點支援具身智慧型手機器人核心零部件、AI晶片、仿生靈巧手、基座及垂直領域大模型、本體控制等關鍵核心技術攻關。以算力券方式對人形機器人企業和科研平台進行算力支援,為產業發展提供堅實底座。產業融合:AI終端與場景應用的雙向奔赴深圳的獨特優勢在於產業鏈完備、機電一體化、應用場景豐富。2026年,深圳將人工智慧終端產業規模目標設定為8000億元以上、力爭1兆元,推出50款以上爆款人工智慧終端產品,打造60個以上典型應用場景。在智能終端領域,深圳在手機、電腦、大模型一體機、可穿戴裝置等領域全面發力,人工智慧終端產品產量突破1.5億台。從AI手機到智能可穿戴裝置,從AI電腦到具身智慧型手機器人,深圳正在打造具有國際競爭力的智能硬體產品叢集。在場景開放方面,深圳已累計發佈近200個“城市+AI”應用場景,2026年計畫再開放100個應用場景。從智能製造到智慧金融,從智慧城市到智慧養老,從智慧政務到低空經濟,深圳正以"場景應用最開放"的姿態,為AI和機器人技術提供最好的試驗場。前海作為深港合作的橋頭堡,正建構“642”產業體系,其中“4”大戰略性新興產業就包括人工智慧與具身智慧型手機器人、海洋產業、智能終端、低空經濟。這種“南山創新+寶安製造+前海服務”的疊加優勢,將推動深港現代服務業與珠三角先進製造業深度融合。生態建構:從政策護航到全球資源配置深圳科技實力的持續領先,離不開制度創新與生態建構。在政策支援方面,深圳採取超常規政策舉措,支援發展人工智慧與機器人產業。《深圳市加快打造人工智慧先鋒城市行動計畫(2025—2026年)》提出,到2026年全市人工智慧企業數量超3000家,獨角獸企業超10家,產業規模年均增長超20%。在人才集聚方面,深圳高水平建設深圳河套學院,建構“學院+園區”創新生態,打造富有吸引力的人工智慧人才集聚地。丘成桐院士發起的數學與交叉學科研究院、深圳醫學科學院的國際臨床試驗中心、粵港澳大灣區國創中心國際總部等,形成了從基礎研究到臨床應用、再到產業轉化的全鏈條創新生態。▲深圳河套學院。圖源:深圳河套學院官網在全球資源配置方面,深圳加快推進河套深港科技創新合作區建設,打造國際協同創新區、國際性產業與標準組織集聚區。前海累計吸引183家世界500強投資主體,全球服務商區域性、功能性總部累計42家,為深圳科技產業對接全球資源提供了重要平台。新質生產力的深圳樣本從2026年深圳的科技願景可以看出,深圳正在以人工智慧和具身智慧型手機器人為雙引擎,建構具有全球競爭力的現代化產業體系。這不僅是技術的突破,更是新質生產力的生動實踐。深圳的目標是清晰的:建成具有國際影響力的人工智慧先鋒城市,具身智慧型手機器人產業綜合實力達到國際領先水平。在“十五五”規劃的開局之年,深圳以10%以上的研發投入增長、10%以上的AI產業增加值增長、兆級的人工智慧終端產業規模,向世界展示著中國科技創新的速度與質量。從華強北的電子元器件到前海的國際標準組織,從南山區的演算法創新到寶安區的機器人製造,從河套的跨境資料流通到光明實驗室的基礎研究——深圳正以全產業鏈優勢、全場景應用優勢、全要素創新優勢,在全球科技革命和產業變革中搶佔制高點。 (察理思特)
中國AI引爆好萊塢恐慌!馬斯克點贊背後,一場3000億產業大洗牌正在發生
當《黑神話:悟空》創始人馮驥在社交平台上感嘆“內容領域必將迎來史無前例的通貨膨脹”時,他手中的工具正是字節跳動最新發佈的視訊生成模型Seedance 2.0。這款沒有發佈會、沒有通稿的AI工具,卻在全球科技圈投下了一枚深水炸彈。特斯拉CEO埃隆·馬斯克親自轉發點評:“進展太快”。從好萊塢到底特律,從橫店到矽谷,一場由國產AI引發的產業地震正在蔓延。01 產業重構:成本塌方90%,傳統影視的“末日鐘聲”“一人劇組”時代的到來在北京一家影視科技公司裡,工作人員正通過Seedance 2.0加緊製作新春祝福視訊。公司首席技術官徐京徽感慨:“過去想實現流暢的、人物一致性完好的商業片,可能需要堆砌大量的工作流。現在創作者可以把更多精力聚焦在創意上。”[citation:原創]這種變化的背後,是令人窒息的成本壓縮。常州華彩映畫影業曾為《那吒2》提供後期製作,企業負責人梁奕黃告訴記者,以前接一個特效簡單的短劇項目,需要30多人的團隊;現在五六個人就能跑通全流程。南京炫佳科技目前已實現日產9000分鐘的內容產能,最快1小時即可成片。該公司負責人秦林算了一筆帳:“過去傳統真人短劇單集綜合成本普遍在3萬元到5萬元,頭部精品超10萬元。而依託Seedance 2.0,AI短劇單整合本可以控制在幾千元,AI漫劇甚至能低至幾百元,整體成本降幅超過80%甚至90%。”知名視效指導姚騏使用該工具製作的2分鐘科幻短片《歸途》,整體成本僅330.6元——這一數字在傳統製作框架下難以想像。“導演”這個詞,正在被重新定義Seedance 2.0真正讓普通人擁有了導演的能力。北鬥智影的技術負責人這樣描述他的使用體驗:只需告訴它故事,模型自行完成分鏡設計——遠景交代環境,特寫捕捉情緒,音效、配樂、剪輯點全部一次性生成。遊戲科學創始人馮驥在深度體驗後給出了極具份量的判斷:“一般性視訊的製作成本將無法再沿用影視行業的傳統邏輯,開始逐漸趨近算力的邊際成本。傳統組織結構與製作流程會被徹底重構。”南京市電影協會秘書長周正認為,對於技術門檻較低的環節,AI可以有效實現降本增效。他特別提到,AI對“一人公司”模式的短影片創作者非常有利。02 資本暗戰:AI漫劇概念爆發,誰在風口起舞?二級市場的狂熱反應資本市場對Seedance 2.0的反應可謂狂熱。連續兩日,A股Seedance概念類股持續走強,多隻個股觸及漲停。AI漫劇概念相關個股迅速受到市場追捧,掌閱科技、德才股份在2月9日至12日均連續漲停,錄得四連板。海通國際發佈研報指出,AI漫劇作為最確定的落地場景,2025年中國市場規模達168億元,2026年預計增長45%至243.6億元。AI漫劇製作成本已從傳統短劇的1.5-4萬元/分鐘壓縮至約1000元/分鐘,製作周期從30-45天縮短至7-10天。開源證券最新研報認為,Seedance 2.0有望率先在AI漫劇、AI短劇等短內容領域得到廣泛應用。其極高的可控性顯著降低了“抽卡”成本,中性假設下可使模型每秒生成成本相比同業降低37%,推動製作大幅降本提效。產業鏈的價值重估中銀證券在其最新研報中表示,Seedance 2.0在功能層面取得的突破對於AI多模態應用特別是視訊生成領域有著重要的催化意義。多模態生成對於算力需求較大,這使得上游硬體基礎設施亦有望同步受益。方正證券發佈研報稱,結合2026年AI應用大年的產業邏輯,疊加Seedance 2.0的技術催化,從彈性排序來看,後續細分賽道機會呈現“低位影視>行銷>傳媒指數>遊戲”的趨勢。資料顯示,中國整體日均token消耗已從2024年初的1000億增至2026年2月的180兆等級。視訊生成將驅動雲廠商token消耗呈指數級增長,火山引擎、阿里雲等雲廠商將直接受益。在狂熱中,也有冷靜的聲音。掌閱科技在2月12日晚間發佈的公告中表示,公司2025年度AI短劇業務收入預計不超過主營業務收入的1%。德才股份則指出,其控股孫公司奇想無限設立時間較短,尚無相關業務訂單及收入。市場的熱情與公司的冷靜形成了鮮明對比。03 創作革命:從“抽卡”到“導演”,短影片創作者的新紅利告別“抽卡”時代過去,AI視訊最大的痛點在於“抽卡”——創作者們往往為了得到一個不崩壞、一致性的幾秒鐘視訊需要反覆生成數十次。Seedance 2.0的核心突破在於試圖將“炫技”轉化為“可交付敘事”。從技術層面看,Seedance 2.0採用了統一的多模態音視訊聯合生成架構。清華大學新聞與傳播學院、人工智慧學院雙聘教授瀋陽分析:“我們可以指定表演的細節,燈光、相機運動等多元素實現電影等級的精確控制,在時間連貫性和物理真實性上的躍進,保持物理的一致性。”[citation:原創]在實際應用中,這種技術突破意味著什麼?同樣輸入提示詞“男主在香港街頭被圍攻,一人打倒十幾個黑衣人,最後怒吼‘還有誰’”,過去的模型可能生成一段站樁式輸出,而Seedance 2.0則自行完成了完整的分鏡設計。IP價值的新可能在氾濫的AI生成內容洪流中,技術本身不再是壁壘,真正的壁壘依然掌握在IP所有者手中。正因為市場上充斥著大量“高仿”內容,才更顯出真正IP的不可替代。當內容供給不僅過剩而且“通貨膨脹”時,使用者的時間和注意力將變得前所未有的昂貴。能夠瞬間捕獲使用者注意力的,依然是那些經過時間驗證的、具有強大情感穿透力的經典IP。青年導演成亞妹認為,儘管AI可以在配樂、分鏡、故事策劃、視效製作等方面提高效率,為導演拓寬思路,但她堅信,最關鍵的仍在於故事的靈魂——創作者想要表達什麼?那些故事裡的靈光,是AI無法實現的。04 深度訊號:技術狂飆背後的冷思考“技術平權”的雙刃劍從Seedance到DeepSeek,中國企業AI產品的火爆並非偶然。獨立智庫澳大利亞戰略政策研究所(ASPI)去年末發佈的《關鍵技術追蹤報告》顯示,中國在74項關鍵技術中66項排名第一。中國正致力於AI發展與監管平行。今年1月,修訂後的《中華人民共和國網路安全法》正式施行,其中新增了促進人工智慧發展的相關規定。針對有害內容、隱私和資料安全等方面,中國國內已制定了廣泛的規則,例如《生成式人工智慧服務管理暫行辦法》早在2023年就開始實施。版權與深偽:AI的“阿喀琉斯之踵”Seedance 2.0驚人的復刻能力,也讓版權方感到了前所未有的壓力。近日,大量關於周星馳經典電影的“二創”甚至“惡搞”片段在短影片平台瘋傳。周星馳經紀人陳震宇公開發文質疑:“想問一下,這些屬於侵權嗎?”美國電影協會(MPA)12日發佈聲明稱:“僅一天時間,中國的Seedance 2.0就大規模未經授權使用了美國受版權保護的作品。”而比版權風險更為棘手的是“深偽”問題。Seedance 2.0模型具備對個人生物資訊的深度復現能力,針對使用者反饋,字節跳動隨即叫停了“真人素材參考”功能。在平台使用Seedance 2.0時會提示暫不支援真人人臉參考。與此同時,在即夢App和豆包App使用Seedance 2.0時,平台採取“活體核驗”措施,使用者需要錄製本人形象與聲音完成真人校驗,才可以製作數字分身。05 實操乾貨:創作者如何在AI洪流中生存與崛起擁抱AI,但不盲從對於內容創作者而言,Seedance 2.0的到來既是機遇也是挑戰。南京市電影協會秘書長周正建議:“未來平台上不缺內容,缺的是有思想、有情感、有辨識度的優質內容。”他指出,對於一些低端內容領域來說,技術門檻已被徹底踏平。那些只會按固定範本拍攝、缺乏核心創意的導演會被淘汰。短劇行業的真正價值必將回歸到那些無法被演算法壓縮的部分——獨特的創意構想、深刻的人文關懷、真誠的情感連接,以及歷經時間淬煉的IP靈魂。複合型人才的新賽道站在行業視角來看,AI漫劇和AI短劇下半場的競爭邏輯已經非常清晰:從拼產能轉向拼品質、拼IP、拚生態。當AI工具逐漸普及,單純的量產能力不再是壁壘,低質同質化內容會快速被市場淘汰。在這樣的趨勢下,行業需要的也不再是傳統意義上單一技能的影視人才,而是AI原生的複合型人才——既懂內容敘事、懂使用者情緒、能把控審美與故事靈魂的創意人才,也懂模型、懂多模態生成、能最佳化生產流程的技術人才。周正強調,無論技術如何演進,內容創作的精度與創意依然是根本。行業對“好故事”的要求只會更高,對人本身的要求也會更高——多閱讀、提升思維深度、保持對人文的敏感,仍是所有創作者無法繞開的功課。AI是工具,但內容的溫度、故事的價值、IP的生命力,最終還是要靠人來定義。夜深人靜,當影視颶風Tim更新了Seedance 2.0的體驗視訊,有創作者在凌晨三點寫下:“1年來第一次在半夜,被AI進展驚到失眠。”這種失眠,既是興奮也是恐懼。興奮於創作的門檻從未如此之低,恐懼於自身的價值從未如此需要重新證明。電影《死侍》編劇雷特·瑞斯看著由AI生成的湯姆·克魯斯和布萊德·皮特互搏短片,感慨道:“我真不想這麼說,但我們可能完了。很快,就會有人坐在電腦前生成一部與好萊塢現有電影無法區分的影片。”從導演到剪輯,從拍攝到配樂,AI正在瘋狂壓縮我們的工作流。當工具變得唾手可得,決定內容高度的,將不再是會不會用軟體,而是腦海中那個關於世界的構想是否足夠獨特。一人公司、一人劇組正慢慢成為潮流現象[citation:原創]。在技術的狂飆中,最珍貴的東西始終沒變——那些無法被演算法壓縮的,是人的溫度。 (胡曉妃新商業)
AI視訊+算力,深度佈局的10家公司
隨著字節旗下Seedance2.0在海內外爆火,AI視訊熱度攀升,而2026央視春晚大量使用了AI視訊技術,Seedance2.0也參與相關節目製作。與目前主流的AI視訊模型相比,Seedance2.0實現“圖片生成電影級視訊”的重大突破,有望在AI短劇等短內容領域實現廣泛應用。行業機構大多認為,隨著Seedance2.0爆火,AI視訊有望從“嘗鮮”走向工業化量產的關鍵節點,從而引爆算力服務剛需。值得注意的是,工信部年前也發佈通知,組織開展國家算力互聯互通節點建設工作,旨在提升整體算力水平。基於此,AI視訊與算力產業同步走在向上發展期,那些同時佈局兩大產業的企業也受到行業大量關注。本期,我們梳理AI視訊與算力產業鏈,結合業務關聯度,篩選出在兩大領域深度佈局的10家公司,供大家研究參考。注意:以下內容絕不構成任何投資建議、引導或承諾,僅供交流研討。第1家:華策影視主營業務:影視項目及影視內容衍生AI視訊:與智譜聯合開發影視內容生產智能體及影視內容審查垂直模型,打造國內影視AI平台算力:公司在2025年完成一個算力營運項目,設立專門團隊負責算力業務,並規劃不超過10億元發展算力業務。第2家:新華網主營業務:全媒體廣告、政企綜合服務、數位化服務AI視訊:公司發起和制定了機器智能內容生產(MGC)標準,自研AI短影片技術已在文旅、媒體等領域落地算力:新華AIGC應用平台包含高彈性算力包產品,可以為客戶提供低成本普惠的算力資源,並提供訓練推理服務。第3家:浙數文化主營業務:數字文化與數字科技業務AI視訊:旗下兩家子公司涉及AI模型研發,其中傳播大腦模型已具備文生圖文、文生視訊在內的核心功能算力:子公司富春雲科技打造算力中心,基本建成10000組機櫃,對外提供算力租賃業務。第4家:天娛數科主營業務:資料流量與電競遊戲AI視訊:子公司元境科技孵化出以AIGC為核心的“元趣”應用,實現文生視訊等功能算力:聯合國家先進計算太原中心、山西資料技術有限公司等共建AI 算力服務平台,提供算力服務。第5家:盛天網路主營業務:IP營運、遊戲營運、網際網路廣告等AI視訊:自研VRACE AI平台主打泛娛樂場景的多模態視訊創作,已在遊戲、AI短劇落地算力:自研雲端運算平台,為 AI、雲遊戲、視訊渲染提供低延遲、高彈性算力,並對外提供算力服務。第6家:拓爾思主營業務:AI軟體與服務、巨量資料軟體與服務AI視訊:拓天大模型具備文生視訊、文生圖、音視訊合成、口型同步等多模態能力,並在各行業落地算力:擁有算力一體機產品,自建智算中心總算力達500PFlops,可支撐大模型訓練。第7家:崑崙萬維主營業務:AI應用、海外資訊分發與元宇宙業務AI視訊:SkyReels是國內首個面向AI短劇的視訊生成模型,海外短劇平台DramaWave實現商業化突破算力:已建構起自主可控的算力叢集,對內實現全鏈路算力供給,且GPU算力對外出租。第8家:當虹科技主營業務:智能視訊技術及解決方案AI視訊:全球領先的多模態AI音視訊技術服務商,早在24年就發佈了靜態照片生成三維體積視訊的方案算力:發佈DeepSeek與BlackEye多模態大模型算力一體機,並與摩爾線程GPU做了深度融合。第9家:雲從科技主營業務:人工智慧解決方案AI視訊:公司從容大模型已實現利用Diffusion、GAN等生成式技術圍繞人物圖像等建模,並生成視訊算力:與華為、寒武紀等國產化算力企業合作,提供訓推一體機產品,並建立西部智算中心。第10家:格靈深瞳主營業務:人工智慧產品及技術服務AI視訊:元識多模態智算平台,提供文生視訊、視訊摘要、智能剪輯等功能算力:推出全國產化超融合一體機,深瞳邊緣計算平台等,以此為相關行業提供算力服務。整體來看,Seedance2.0的火爆不僅是AI視訊的一大技術突破,更是AI視訊在商業化應用的重要節點,一旦規模落地將引爆算力需求攀升。上述10家企業,正積極建構“AI視訊生成能力”與“底層算力支撐”的雙輪驅動模式,有望成為產業融合升級的重要力量。 (富牛投研)